Telegram Group Search
#видео

Что посмотреть на выходных;) Два больших (трёхчасовых) видео.

Для любителей теории.
Сотрудники ФКН ВШЭ за 10 минут должны рассказать результат, которым гордятся. Очень интересный формат! Некоторые доклады получились зажигательными. Предупреждаю, что там темы в сторону от DS (например, есть доклады по алгебре и теории чисел).

Для любителей практики.
Рассказы про соревновательный DS от участников ML-тренировки. Это уже "старый добрый" формат.

В комментарии можно кинуть свои предложения на тему "что посмотреть на выходных";)
#книга
Свежая книга "Random Matrix Methods for Machine Learning" поможет понять, зачем в машинном обучении нужны функции комплексного переменного, интегралы по контуру, спектральная теория, комбинаторика и т.п. Есть следующие разделы
- Random Matrix Theory
- Statistical Inference in Linear Models
- Kernel Methods
- Large Neural Networks
- Large-Dimensional Convex Optimization
- Community Detection on Graphs
- Universality and Real Data

Например, в первом изучается спектр матрицы XX^T, которая много где возникает (в методе главных компонент, теории ядер и т.п.) А в четвёртом есть интересные результаты про т.н. двойной спуск.

Книга для очень подготовленного читателя!
#курс
В этом году дозалил некоторые видео своего расширенного курса по DL, все материалы лучше искать по общей ссылке:
https://alexanderdyakonov.wordpress.com/courses/
А ссылка на видеолекции (теперь их 36): здесь.
Опять не всё успел записать, что хотел, но в ближайшие годы, скорее всего, конкретно этот курс не будет читаться и пополняться.
#соревнование
Есть много разных соревнований по анализу данных, например, на известной платформе kaggle уклон в сторону машинного обучения. А есть ещё конкурсы по финансовому моделированию, например Financial Modeling and Excel Competitions. В последнем номере журнала Риск-менеджмент в кредитной организации интервью с участником таких конкурсов (там есть примеры задач и данных). Кстати, в них почти нет участников из России (в рейтинге этого года всего 2).
#планы
Уволился из МГУ. Теперь буду работать в Центральном университете.

Кстати, все, кто хочет поучаствовать в этом образовательном проекте, пишите в личку или на почту.
#книга
Большая книга про женщин в науке. Сделана в формате справочника, вроде как наиболее полная по этой теме (но, например, про Софью Ковалевскую ни слова).
https://discovery.ucl.ac.uk/id/eprint/10165716/1/Women-in-the-History-of-Science.pdf
#ссылка
Есть такой ex-профессор университета Висконсина Дерик Баундс. Он автор нескольких книг о мозге, которые, впрочем, не слишком популярны, лет 20 назад он вышел на пенсию и ведёт блог, также на его сайте выложены некоторые популярные лекции.

Не знаю, насколько интересны его авторские концепции, а вот следить за блогом часто бывает полезным, т.к. он держит руку на пульсе и ссылается на совсем свежие исследования.

П.С. Что изображено на рисунке, можно понять из его последних лекций и эссе. В первом комментарии под постом дам ответ.
#забавно
Если писатели не хотят дописывать серию романов, то можно использовать ИИ;) Интересная идея - с помощью языковой модели дописали "Песнь льда и пламени" Джорджа Мартина. Не думаю, что могло получиться хорошо (сам не стал читать, т.к. уже написанные книги ПЛиП тоже не читал), но попытка интересная (ранее с помощью GPT2 генерировали альтернативные концовки, здесь с помощью ChatGPT две последние книги серии).
https://github.com/LiamSwayne/AI-Song-Of-Ice-And-Fire
#визуализация
Иллюстрации различных сложных систем (довольно много: тут и странные аттракторы, и модель Шеллинга, и preferential attachment). Сделаны интерактивными (можно менять параметры, которые определяют поведение).
https://www.complexity-explorables.org/
#ссылка
Сайт с информацией о современных моделях ИИ. Особенно там удачные вот такие визуализации (которые многие любят вставлять в презентации) и таблицы с параметрами моделей и ссылками на них. Последние полгода сайт стал меньше обновляться.
https://lifearchitect.ai/
#задача
В августе я собеседовал довольно много абитуриентов. Вот одна из задач, которую я часто спрашивал (на собесах когда-то я её тоже использовал).

Мы играем в азартную игру, состоящую из конов, в каждом коне есть победитель и ему засчитывается очко (изначально счёт 0-0). Перед игрой мы сбросились по 100 рублей и договорились, что тот, кто первый наберёт 10 очков, забирает весь банк (200 рублей). Сейчас счёт 8-6 в Вашу пользу и мы не можем продолжить игру (например, мы играли на игровом автомате и он сломался). Как бы Вы предложили наиболее честно разделить банк?

Понятно, что в постановке присутствует нечёткость в виде "наиболее честно", но формализация этого как раз и интересна, также как и ход рассуждений (счёт при желании можно изменить для простоты вычислений).
#интересно
Есть такой Adon Joseph - бывший аэрокосмический инженер, создававший системы навигации космических кораблей в 90-е и руководивший большими проектами в оборонке. На пенсии он как-то обнаружил, что «преддверие» - часть внутреннего уха - устроено также как военные системы навигации. После этого он 6 лет изучал нейробиологию и построил свои карты головного мозга. В результате пришёл к выводу, что мозг это реально сложная инженерная система, кем-то специально спроектированная, ударился в религию и создал свой любопытный сайт.
#интересно
Многие неправильно думают, почему гребневая регрессия (Ridge Regression) так называется. В основном считают, что из-за того, что в явной формуле для весов возникает диагональная матрица - как будто "матрица с гребнем" (так даже ChatGPT объясняет). Но до появления гребневой регрессии возник гребневый анализ (Ridge Analysis) и в нём отсылка была к форме поверхности функций, с которыми работали. Не так давно вышла статья, в которой один из потомков изобретателей "всего гребневого" рассказывает о первых работах.

Hoerl R. W. Ridge regression: a historical context //Technometrics. – 2020. – Т. 62. – №. 4. – С. 420-425.
#книга
Ilias Diakonikolas, Daniel M. Kane
Algorithmic High-Dimensional Robust Statistics

Монография по современной многомерной робастной статистике. Стиль «очень математический», без лишних примеров «на пальцах», только утверждения и доказательства. Есть даже глава про «робастное машинное обучение» (но там дальше линейной регрессии не идут). Из книги, в частности, можно узнать, что SIFT это не только scale-invariant feature transform, но и Subspace Isotropic Filtering. Из плюсов: есть нетривиальные задачи в конце каждой главы.
#статьи
Есть такая замечательная коллекция лучших статей на разных DS-конференциях с 1996 года! К сожалению, с прошлого года не обновляется. Но всё рано, очень хорошая подборка.

https://jeffhuang.com/best_paper_awards/

Есть люди, которые целенаправленно читают всех нобелевских лауреатов по литературе или смотрят все фильмы из топа Кинопоиска / IMDb. Можно по аналогии читать по подобным спискам;)
#полезно
Один интересный кейс, который мне очень нравится: как догадаться до нужной деформации целевых значений.
#книга
Посмотрел книгу Введение в автоматизированное машинное обучение (AutoML). Главный недостаток - это не совсем книга, это скорее сборник статей, часть построена по принципу обзора по теме со ссылками на первоисточники. Зато попадаются интересные ссылки. Есть главы по Auto-WEKA, Hyperpopt, Auto-sklearn, TPOT (для первичного знакомства, наверное, подойдёт). Последняя глава - обзор результатов давнишних соревнований Изабель Гийон по AutoML.

К слову, создатели LightAutoML сделали курс из коротких видео по своему продукту: https://developers.sber.ru/help/lightautoml
#визуализация
Странно, что я ещё не упоминал здесь такой интересный ресурс. Можно использовать для освежения в памяти тем по ML. Полно интересных рисунков по каждой теме. Есть три блока: ML, ML-Engineering, проективная геометрия, по DL совсем чуть-чуть и ресурс не обновляется с начала года.
https://illustrated-machine-learning.github.io/
#интересно
Для тех, кто любит глянцевые журналы. Вот тут до сих пор регулярно выпускают журнал по Computer Vision. Электронные версии выложены в открытом доступе, там даже странички перелистываются со звуком шуршания журнальных;) В одном из последних номеров интервью с Яном Лекуном.
https://www.rsipvision.com/computer-vision-news/
#книга
Simon J.D. Prince "Understanding Deep Learning"
Незаслуженно малоизвестная книга. Но это самое лучшее, что в последние годы писалось по глубокому обучению. Материал очень современный (GPT3, диффузионные модели, графовые сети есть). Повествование с основ и до этических проблем, очень широкий охват. Текст и рисунки авторские. Достаточно подробная библиография. Ну разве что примеров кода нет (книга теоретическая). Настоятельно рекомендую!
https://udlbook.github.io/udlbook/
2024/06/30 23:22:34
Back to Top
HTML Embed Code: